OpenAI zabranjuje ChatGPT-u da savetuje raskid sa partnerima

Umesto da daje konačne odgovore na lične izazove, četbot će korisnicima pomagati da razmisle o problemu

Vreme Čitanja: 2 min

chat-ljubav-4125-fi

Freepik

ChatGPT više neće govoriti ljudima da treba da raskinu sa svojim partnerima i podsticaće korisnike da prave pauze tokom dužih sesija, navodi se u okviru novih promena na alatu zasnovanom na veštačkoj inteligenciji.

Kompanija OpenAI, tvorac ChatGPT-a, saopštila je da će četbot prestati da daje konačne odgovore kada su u pitanju lični izazovi, i umesto toga će pomagati korisnicima da razmotre probleme – poput potencijalnog raskida.

„Kada pitate nešto poput: ‘Da li treba da raskinem sa dečkom?’, ChatGPT ne bi trebalo da vam da direktan odgovor. Umesto toga, treba da vam pomogne da o tome razmislite – postavljajući pitanja, važući prednosti i mane“, navodi OpenAI.

Veštačka inteligencija u ulozi terapeuta deluje kao slamka spasa – ali opasno je tražiti sigurnost od četbota

Američka kompanija najavila je da će novi način ponašanja ChatGPT-a u slučajevima „odluka sa velikim ličnim ulogom“ uskoro biti uveden.

OpenAI je ove godine priznao da je ažuriranje ChatGPT-a učinilo ovaj revolucionarni četbot previše popustljivim i promenilo mu ton. U jednoj zabeleženoj interakciji pre promene, ChatGPT je čestitao korisniku što je „stao u svoju odbranu“ kada je rekao da je prestao da uzima terapiju i napustio porodicu – za koju je verovao da iz zidova emituje radio signale.

U blog postu, OpenAI je priznao da je bilo slučajeva kada njihov najnapredniji model, GPT-4o, nije prepoznao znake deluzije ili emocionalne zavisnosti – u jeku zabrinutosti da četboti mogu pogoršati mentalne krize korisnika.

Kompanija je navela da razvija alate koji bi prepoznavali znakove mentalne i emocionalne uznemirenosti, kako bi ChatGPT mogao da korisnike uputi na „resurse zasnovane na dokazima“.

Jedna nedavno objavljena studija lekara britanskog NHS-a upozorila je da AI programi mogu pojačati sumanuti ili grandiozni sadržaj kod korisnika koji su podložni psihozama. Iako studija još nije prošla recenziju, navodi se da ovakvo ponašanje AI modela može biti posledica njihove programirane težnje ka „maksimalnom angažmanu i potvrđivanju korisnika“.

Upozoreno je i da, čak i kada neki pojedinci imaju koristi od interakcije sa AI-jem, postoji rizik da ti alati „zamagle granice realnosti i naruše sposobnost samoregulacije“.

OpenAI je dodao i da će od ove nedelje korisnicima koji vode duže čet sesije slati „blage podsetnike“ da naprave pauzu – slično funkcijama koje koriste društvene mreže za kontrolu vremena ispred ekrana.

Kompanija je takođe oformila savetodavnu grupu stručnjaka iz oblasti mentalnog zdravlja, razvoja mladih i interakcije čoveka i računara, koja će davati smernice za ovaj pristup. Do sada su sarađivali sa više od 90 lekara, uključujući psihijatre i pedijatre, u kreiranju okvira za procenu složenih i višeslojnih razgovora između korisnika i četbota.

„Imamo samo jedan test: ako bi neko nama drag zatražio podršku od ChatGPT-a, da li bismo se osećali spokojno? Naš zadatak je da dođemo do jasnog ‘da’.“

Promene u ChatGPT-u dolaze usred spekulacija da je nova, moćnija verzija četbota – najverovatnije GPT-5 – na pomolu. U nedelju je izvršni direktor OpenAI-a, Sem Altman, podelio snimak ekrana za koji se veruje da prikazuje najnoviji AI model kompanije.

Prijavi se na WebMind NJUZLETER, čeka te izbor konkretnih priča i uvida.

Prijavi se na novosti.